官宣!网易数帆自研大数据基础平台,筑牢自主可控“数字底座”
为什么要做NDH?
打造自主可控、迁移平滑的
企业级大数据基础平台
一、自主可控:强大的自主研发能力,兼容各类国产软硬件。
在开源技术的基础上,有数大数据基础平台NDH分别对Spark、Impala、Hive等多个大数据领域核心的组件进行了技术增强与安全保障,可实现对整个Hadoop基础平台核心代码的完全掌控。同时,平台还适配了信创软硬件生态,可兼容国产数据库、华为鲲鹏等系列芯片、麒麟操作系统(v10)所有组件的部署应用,支持在华为云、阿里云、腾讯云等场景下云化部署,满足企业全信创类需求。
二、支持平滑迁移:提供卓越稳定的迁移方案,实现平滑迁移。
因此,基于网易内部多年平滑迁移方面累积的实践经验,网易数帆制定出一整套平滑迁移的落地方案。
网易原厂迁移服务
整体迁移方案制定结合业务场景,在通用迁移方案基础上根据实际业务诉求进行针对性方案调整,满足业务实际需求。
迁移过程基本不停服
整个迁移过程原集群正常工作,权限/任务在验证成功之后逐步迁移到新集群,整个过程基本不需要平台整体停服。
迁移所需资源可控
整个迁移过程中任务是逐步从原集群迁移到新集群中,在迁移的过程中计算资源也可以逐步进行迁移。
迁移风险可控
整个迁移在方案上针对每个阶段都会有完整的迁移验证,部分阶段会灰度迁移,争取将风险降到最低。
这也使得在对业务不影响或者影响时间较短(< 10 min)的情况下,可以完成整体平台迁移到有数大数据基础平台NDH,真正实现对业务侧不造成影响。此外,迁移完成后,有数大数据基础平台NDH还将为企业提供额外收益,IT系统自动升级成存算分离架构建设,分别提升存储、计算机器的资源利用率,助力企业降本增效。
实践支撑,
NDH实现组件功能的全新升级
一、开发便利►
通过企业级数据湖探索平台Kyuubi ,企业可以像使用HiveServer2一样开发SparkSQL:Spark作为整个大数据计算领域最流行的计算框架,相比原先常用的Hive,在计算性能和资源利用方面有很大的提升,但大部分用户很难改变Hive模式下的使用习惯。有数大数据基础平台NDH组件支持用户保留原有习惯和模式,基于Spark计算引擎上构建的SQL查询引擎,支持多租户隔离等特性,更好地实现分析计算。
二、安全稳定 ►
增强Impala,具备高可用和隔离能力:建立基于虚拟数仓的隔离环境,支持对于同一集群中的不同节点进行分组,不同workload的业务配置不同的分组,避免业务之间相互影响;增强HDFS,尽最大可能保障数据和服务安全。有数大数据基础平台NDH组件可提供类似回收站的功能,支持用户恢复数据,避免因误操作而造成数据损失。
三、智能运维►
通过Easyeagle,让任务诊断不再遥不可及:大数据级别任务性能监控APM(Application Performance Monitor)。通过唯一标示串联任务下发流程,精准高效定位任务运行失败原因。
推荐阅读: